考虑两个或更多的预测员,每个预测员都会随着时间的推移为不同的事件进行一系列预测。我们问一个相对基本的问题:我们如何将这些预测员进行比较,无论是在线还是Hoc,同时避免了对如何生成预测或结果的无可助消的假设?这项工作提出了对这个问题的新颖答案。我们设计了一种顺序推理过程,用于估计预测质量的时变差异,通过相对大类的适当评分规则(具有线性等同物的有界分数)来衡量的。得到的置信区间是非溶解有效的,并且可以连续地监测以在任意数据相关的停止时间(“随时有效”)来产生统计上有效的比较;这是通过调整方差 - 自适应Supermartingales,置信度序列和电子过程来实现这一点。由于Shafer和Vovk的游戏理论概率,我们的覆盖担保也是无意义的,因此它们没有对预测或结果的分布假设。与Henzi和Ziegel最近的工作形成鲜明对比,我们的工具可以顺序地测试一个弱null假设关于一个预测器是否平均过度地越过另一个。我们通过比较主要联赛棒球(MLB)游戏和统计后处理方法的预测来展示其有效性。
translated by 谷歌翻译
For low-level computer vision and image processing ML tasks, training on large datasets is critical for generalization. However, the standard practice of relying on real-world images primarily from the Internet comes with image quality, scalability, and privacy issues, especially in commercial contexts. To address this, we have developed a procedural synthetic data generation pipeline and dataset tailored to low-level vision tasks. Our Unreal engine-based synthetic data pipeline populates large scenes algorithmically with a combination of random 3D objects, materials, and geometric transformations. Then, we calibrate the camera noise profiles to synthesize the noisy images. From this pipeline, we generated a fully synthetic image denoising dataset (FSID) which consists of 175,000 noisy/clean image pairs. We then trained and validated a CNN-based denoising model, and demonstrated that the model trained on this synthetic data alone can achieve competitive denoising results when evaluated on real-world noisy images captured with smartphone cameras.
translated by 谷歌翻译
The cone-beam computed tomography (CBCT) provides 3D volumetric imaging of a target with low radiation dose and cost compared with conventional computed tomography, and it is widely used in the detection of paranasal sinus disease. However, it lacks the sensitivity to detect soft tissue lesions owing to reconstruction constraints. Consequently, only physicians with expertise in CBCT reading can distinguish between inherent artifacts or noise and diseases, restricting the use of this imaging modality. The development of artificial intelligence (AI)-based computer-aided diagnosis methods for CBCT to overcome the shortage of experienced physicians has attracted substantial attention. However, advanced AI-based diagnosis addressing intrinsic noise in CBCT has not been devised, discouraging the practical use of AI solutions for CBCT. To address this issue, we propose an AI-based computer-aided diagnosis method using CBCT with a denoising module. This module is implemented before diagnosis to reconstruct the internal ground-truth full-dose scan corresponding to an input CBCT image and thereby improve the diagnostic performance. The external validation results for the unified diagnosis of sinus fungal ball, chronic rhinosinusitis, and normal cases show that the proposed method improves the micro-, macro-average AUC, and accuracy by 7.4, 5.6, and 9.6% (from 86.2, 87.0, and 73.4 to 93.6, 92.6, and 83.0%), respectively, compared with a baseline while improving human diagnosis accuracy by 11% (from 71.7 to 83.0%), demonstrating technical differentiation and clinical effectiveness. This pioneering study on AI-based diagnosis using CBCT indicates denoising can improve diagnostic performance and reader interpretability in images from the sinonasal area, thereby providing a new approach and direction to radiographic image reconstruction regarding the development of AI-based diagnostic solutions.
translated by 谷歌翻译
Image super-resolution is a common task on mobile and IoT devices, where one often needs to upscale and enhance low-resolution images and video frames. While numerous solutions have been proposed for this problem in the past, they are usually not compatible with low-power mobile NPUs having many computational and memory constraints. In this Mobile AI challenge, we address this problem and propose the participants to design an efficient quantized image super-resolution solution that can demonstrate a real-time performance on mobile NPUs. The participants were provided with the DIV2K dataset and trained INT8 models to do a high-quality 3X image upscaling. The runtime of all models was evaluated on the Synaptics VS680 Smart Home board with a dedicated edge NPU capable of accelerating quantized neural networks. All proposed solutions are fully compatible with the above NPU, demonstrating an up to 60 FPS rate when reconstructing Full HD resolution images. A detailed description of all models developed in the challenge is provided in this paper.
translated by 谷歌翻译
在公共危机时期,寻求信息对于人们的自我保健和福祉至关重要。广泛的研究调查了经验理解和技术解决方案,以促进受影响地区的家庭公民寻求信息。但是,建立有限的知识是为了支持需要在其东道国发生危机的国际移民。当前的论文对居住在日本和美国(n = 14)的两名中国移民(n = 14)进行了访谈研究。参与者反思了他们在共同大流行期间寻求经验的信息。反思补充了两周的自我追踪,参与者保持了相关信息寻求实践的记录。我们的数据表明,参与者经常绕开语言绕道,或访问普通话资源以获取有关其东道国疫情爆发的信息。他们还进行了战略性利用普通话信息,以进行选择性阅读,交叉检查以及对日语或英语的共同信息的上下文化解释。尽管这种做法增强了参与者对共同相关信息收集和感官的有效性,但他们有时会通过有时认识的方式使人们处于不利地位。此外,参与者缺乏对审查以移民为导向的信息的认识或偏爱,尽管该信息可用,这些信息是由东道国公共当局发布的。在这些发现的基础上,我们讨论了改善国际移民在非本地语言和文化环境中寻求共同相关信息的解决方案。我们主张包容性危机基础设施,这些基础设施将吸引以当地语言流利程度,信息素养和利用公共服务的经验的不同水平的人们。
translated by 谷歌翻译
随着计算机视觉和NLP的进步,视觉语言(VL)正在成为研究的重要领域。尽管很重要,但研究领域的评估指标仍处于开发的初步阶段。在本文中,我们提出了定量度量的“符号分数”和评估数据集“人类难题”,以评估VL模型是否理解像人类这样的图像。我们观察到,VL模型没有解释输入图像的整体上下文,而是对形成本地上下文的特定对象或形状显示出偏差。我们旨在定量测量模型在理解环境中的表现。为了验证当前现有VL模型的功能,我们将原始输入图像切成零件并随机放置,从而扭曲了图像的全局上下文。我们的论文讨论了每个VL模型在全球环境上的解释水平,并解决了结构特征如何影响结果。
translated by 谷歌翻译
自然语言处理(NLP)推论正在看到移动应用程序的采用量增加,在此,对于至关重要的保留用户数据隐私和避免网络往返的推论是必需的。然而,NLP模型的前所未有的大小强调了延迟和内存,这是移动设备的两个关键资源。为了满足目标延迟,将整个模型保存在内存中会尽快启动执行,但将一个应用程序的内存足迹增加了几次,将其收益限制为仅在被移动内存管理回收之前的一些推论。另一方面,从存储按需加载模型会导致几秒钟的io长,远远超过了用户满足的延迟范围;由于IO和计算延迟之间的偏斜度很大,因此管道层的模型加载和执行也不会隐藏IO。为此,我们提出了Speedy Transformer推断(STI)。 STI建立在模型最重要的部分上最大化IO/计算资源利用率的关键思想,通过两种新颖的技术来调和延迟/记忆张力。首先,模型碎片。 STI将模型参数视为独立可调的碎片,并介绍了其对准确性的重要性。其次,带有预紧缓冲液的弹性管道计划。 STI实例化IO/计算管道,并使用一个小的缓冲区进行预加载碎片来进行引导执行,而不会在早期阶段停滞不前;它根据资源弹性执行的重要性明智地选择,调音和汇编碎片,从而最大程度地提高推理精度。在两个商品SoC上,我们在实用的目标潜伏期以及CPU和GPU上建立了STI并根据广泛的NLP任务进行评估。我们证明,STI提供高精度的高度较低的记忆级,表现优于竞争基准。
translated by 谷歌翻译
多级优化已被广泛用作无数机器学习问题的数学基础,例如超参数优化,元学习和增强学习,仅举几例。尽管如此,实施多级优化程序通常需要在数学和编程方面的专业知识,这在该领域的研究都阻碍了研究。我们通过引入贝蒂(Betty)(用于基于梯度的多级优化的高级软件库)迈出了缩小这一差距的第一步。为此,我们基于对多级优化作为数据流图的新解释开发自动分化过程。我们进一步将多级优化的主要组成部分作为Python类,以实现简单,模块化和可维护的编程。我们从经验上证明,Betty可以用作一系列多级优化程序的高级编程接口,同时观察到测试准确性的提高11 \%,GPU存储器使用率下降14 \%,而20 \%降低了。在多个基准上的现有实现的墙壁时间。该代码可从http://github.com/leopard-ai/betty获得。
translated by 谷歌翻译
在这个接近中间尺度的量子时代,云上有两种类型的近期量子设备:基于离散变量模型和线性光学器件(Photonics)QPU的超导量子处理单元(QPU),基于连续变量(CV)) 模型。离散变量模型中的量子计算以有限的尺寸量子状态空间和无限尺寸空间中的CV模型执行。在实现量子算法时,CV模型提供了更多的量子门,这些量子门在离散变量模型中不可用。基于简历的光子量子计算机使用不同的测量方法和截止尺寸的概念来控制量子电路的输出向量长度的额外灵活性。
translated by 谷歌翻译
自从Navier Stokes方程的推导以来,已经有可能在数值上解决现实世界的粘性流问题(计算流体动力学(CFD))。然而,尽管中央处理单元(CPU)的性能取得了迅速的进步,但模拟瞬态流量的计算成本非常小,时间/网格量表物理学仍然是不现实的。近年来,机器学习(ML)技术在整个行业中都受到了极大的关注,这一大浪潮已经传播了流体动力学界的各种兴趣。最近的ML CFD研究表明,随着数据驱动方法的训练时间和预测时间之间的间隔增加,完全抑制了误差的增加是不现实的。应用ML的实用CFD加速方法的开发是剩余的问题。因此,这项研究的目标是根据物理信息传递学习制定现实的ML策略,并使用不稳定的CFD数据集验证了该策略的准确性和加速性能。该策略可以在监视跨耦合计算框架中管理方程的残差时确定转移学习的时间。因此,我们的假设是可行的,即连续流体流动时间序列的预测是可行的,因为中间CFD模拟定期不仅减少了增加残差,还可以更新网络参数。值得注意的是,具有基于网格的网络模型的交叉耦合策略不会损害计算加速度的仿真精度。在层流逆流CFD数据集条件下,该模拟加速了1.8次,包括参数更新时间。此可行性研究使用了开源CFD软件OpenFOAM和开源ML软件TensorFlow。
translated by 谷歌翻译